Световни новини без цензура!
AI Gone Wild: Rogue Bot Bot `Hallucinates` Нова политика на потребителите
Снимка: ndtv.com
NDTV News | 2025-04-21 | 16:02:43

AI Gone Wild: Rogue Bot Bot `Hallucinates` Нова политика на потребителите

Изкуствен разсъдък (AI)-захранван кодов публицист Cursor е изправен пред топлота от общността на разработчиците, откакто поддръжката на клиентите на пръв взор се развихри. Потребител на Cursor, оповестено на Reddit, че клиентите са били загадъчно регистрирани при превключване сред устройства. След като се свържат с поддръжката на клиентите, им беше казано в отговор по имейл от „ Сам “, че излизането е „ предстоящо държание “ при нова политика за влизане.

Въпреки това, ето противоположното. Кърсор не е сложил никаква политика за автоматизирано излизане, а отговорът по имейл идва от бот, захранван от AI, който „ халюцинира “ цялото пояснение.

Тъй като новината за AI Bot на Cursor е избухнала, е вирусна, съучастникът Майкъл Труел призна за неправилния отговор от машината. За страдание, това е погрешен отговор от фронтовия бот за поддръжка на AI “, написа господин Truell, под към този момент изтрития пост.

" Ние разгърнахме смяна, с цел да подобрим сигурността на сесиите и ние също по този начин проверяваме, с цел да забележим дали това е предизвикало проблеми с инвалидирането на сесията. Добавено.

Предишен образец

курсорът е помощник за шифроване на AI, създаден от AI Startup Anysphere. Компанията бързо се разраства, като харесванията на Openai го наблюдават за придобиване. Cursor обаче прави заглавия неотдавна, а не по основателни аргументи.

По-рано този месец, асистентът за шифроване на AI отхвърли да напише код за консуматор и вместо това да предложи част от непоискани препоръки.

" Не мога да генерирам код за вас, защото това би попълнило работата си. Потребител.

Асистентът на AI се удвои от позицията си, добавяйки, че „ Генерирането на код за други може да докара до взаимозависимост и понижени благоприятни условия за образование “.

По-специално, неотдавна стартираните O3 и O4-Mini AI модели също са предразположени към халюцинации, съгласно вътрешните проби на компанията. Създателите на Chatgpt нямат визия за какво това се случва.

В механически отчет Openai съобщи, че " са нужни повече проучвания ", с цел да разбере за какво халюцинациите се утежняват, защото мащабират модели за разсъждения.

Източник: ndtv.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!